La Sentencia T-323 de 2024 de la Corte Constitucional de Colombia (República de Colombia Corte Constitucional -Sala Segunda de Revisión- Sentencia T-323 de 2024) aborda un tema de creciente relevancia: la incorporación de herramientas de inteligencia artificial (IA), como ChatGPT, en la toma de decisiones judiciales. Este fallo establece un precedente crucial en el ámbito jurídico y tecnológico, ya que por primera vez se legitima el uso de un modelo de lenguaje (LLMs) en la emisión de decisiones judiciales. Sin embargo, esta integración plantea preguntas profundas sobre la seguridad, la ética y la confiabilidad de tales herramientas en procesos legales.

La sentencia resalta el potencial de la IA para asistir en la toma de decisiones judiciales, especialmente en términos de eficiencia y acceso a un vasto corpus de información legal. Desde un punto de vista técnico, los modelos de lenguaje como ChatGPT tienen la capacidad de procesar grandes cantidades de datos, identificar patrones y generar recomendaciones basadas en precedentes legales. Esto podría liberar a los jueces de tareas repetitivas, permitiéndoles concentrarse en los aspectos más complejos y subjetivos de cada caso.

No obstante, la integración de IA en la judicatura no está exenta de riesgos. El fallo señala la preocupación por “alucinaciones” y sesgos discriminatorios que pueden surgir cuando los modelos de IA generan respuestas que no están basadas en datos reales sino o que reflejan prejuicios inherentes en los datos de entrenamiento. Estos riesgos son bien conocidos en la comunidad técnica y representan desafíos importantes en el diseño y la implementación de sistemas de IA.

De acuerdo con la experiencia documentada en los artículos de O'Reilly (What We Learned from a Year of Building with LLMs (Part I) sobre la construcción y utilización de modelos de lenguaje a gran escala (LLMs), como ChatGPT, surgen varias lecciones clave que podrian ser directamente aplicables al contexto judicial abordado en la Sentencia T-323 de 2024.

Curaduría de datos

Una de las lecciones más críticas es la necesidad de una curaduría meticulosa de los datos utilizados para entrenar los modelos de IA. Esto se debe a que la calidad de las respuestas generadas está directamente relacionada con la calidad de los datos de entrenamiento. Ello involucra en el ámbito judicial la necesidad de que los modelos sean entrenados con datos legales bien curados y relevantes, que representen de manera equilibrada diferentes perspectivas legales y eviten reforzar sesgos históricos. La evaluación continua y la retroalimentación del rendimiento del modelo son esenciales para identificar y mitigar errores, alucinaciones y sesgos emergentes.

Gestión de alucinaciones e importancia de la verificación humana: Es un hecho comprobado que las alucinaciones constituyen un problema persistente en los modelos de lenguaje, incluso en los más avanzados. Para el campo de la justicia es central entonces que las decisiones asistidas por IA sean monitoreadas por una verificación humana rigurosa. No basta con aceptar las respuestas generadas por el modelo sin un análisis crítico; es imprescindible que los jueces y abogados evalúen la pertinencia y exactitud de las sugerencias proporcionadas por la IA.

Necesidad de transparencia y explicabilidad: La construcción de confianza en la tecnología depende en gran medida de la capacidad de los modelos de lenguaje para ser transparentes y explicables. Las decisiones generadas por la IA deben ser comprensibles para los usuarios humanos y el proceso de toma de decisiones del modelo debe ser trazable. Resulta crucial garantizar que los fallos asistidos por IA sean legítimos y aceptables tanto para las partes involucradas como para la sociedad en general.

Adopción de buenas prácticas en el despliegue y uso de LLMs: Las mejores prácticas en el despliegue de modelos de lenguaje a gran escala incluyen la adopción de enfoques modulares y la implementación de sistemas que permitan la intervención humana cuando sea necesario. En el contexto de la Sentencia T-323 de 2024, esto podría traducirse en el uso de IA como una herramienta auxiliar, donde las decisiones críticas siempre estén bajo la supervisión y validación de un juez humano, garantizando así que la tecnología no sustituya la racionalidad humana, sino que la complemente.

Estrategias y enfoque en la implementación de LLMs: El tercer artículo de la serie de O'Reilly (What We Learned from a Year of Building with LLMs (Part III): Strategy) sobre LLMs introduce un enfoque estratégico central para el despliegue exitoso de estas herramientas en contextos críticos como el judicial. Las siguientes lecciones estratégicas pueden ser directamente aplicables a la implementación de IA en la judicatura: Estrategia de implementación por etapas. La implementación de modelos de lenguaje en procesos judiciales debería ser gradual y cuidadosamente planificada. Esto significa comenzar con casos menos complejos o con funciones de apoyo no decisivas, para luego expandir el uso de la IA a áreas más sensibles a medida que se adquiere confianza en la tecnología. La estrategia minimiza los riesgos y permite una integración más fluida, asegurando que los operadores judiciales se familiaricen con la IA antes de depender de ella en decisiones críticas.

Énfasis en la escalabilidad y adaptabilidad. Una de las claves del éxito en la implementación de LLMs es la capacidad de escalar y adaptar las soluciones a diferentes contextos. Las herramientas de IA deben ser lo suficientemente flexibles para ajustarse a las particularidades de diferentes sistemas legales y jurisdicciones. Supone entonces la capacidad de integrar nuevas normativas y regulaciones a medida que evolucionan, garantizando que la IA se mantenga alineada con los principios legales y éticos.

Monitoreo y ajuste continuo. El artículo de O'Reilly enfatiza la importancia del monitoreo continuo y la capacidad de ajustar el modelo en función del rendimiento y los resultados observados. En el contexto de la justicia resulta particularmente relevante, ya que permite corregir rápidamente cualquier desviación que pueda comprometer la equidad o la legalidad de las decisiones asistidas por IA. Un sistema de retroalimentación robusto, que incluya la participación de jueces y otros operadores judiciales, es esencial para mantener la calidad y fiabilidad del sistema.

Hacia un Futuro de Justicia Híbrida

La Sentencia T-323 de 2024 inaugura una era de justicia híbrida, donde la tecnología y el juicio humano deben coexistir en armonía. La incorporación de IA en la judicatura puede ofrecer mejoras significativas en eficiencia y acceso a la justicia, pero sólo si se implementa con un profundo respeto por los principios éticos y los derechos humanos.

Nuestra responsabilidad es doble: debemos desarrollar tecnologías que sean técnicamente robustas y éticamente responsables y debemos trabajar en colaboración con juristas y legisladores para asegurar que estas herramientas se utilicen de manera que fortalezca la justicia, en lugar de comprometerla.

Este fallo no solo es una guía para la implementación de IA en la justicia, sino también un llamado a la acción para que la comunidad técnica desarrolle soluciones que estén a la altura de los desafíos legales y éticos que plantea esta nueva era. El futuro de la justicia depende de nuestra capacidad para diseñar, implementar y regular tecnologías que respeten y promuevan los derechos fundamentales de todos los ciudadanos. Con un enfoque estratégico, transparencia, y una adopción gradual, podemos avanzar hacia un sistema de justicia que no solo sea más eficiente, sino también más justo y equitativo para todos.